一、製品の概要
この計器は当社が監視、監督者のために現場で各種の水サンプル指標を測定するための計器である。本計器は自動PID温度制御、二重液晶表示、交直流両用、自動ゼロ調整、濃度直読、曲線記憶、自動印刷などの特徴を有し、計器の操作は簡便で、人間機械のインタラクティブ操作で、使用者は複雑な専門知識を必要とせずに本製品を応用することができる。
二、性能特徴
1.デュアルLCDディスプレイ、純中国語操作インタフェース、人間性設計、人間機械インタラクティブインタフェースは友好的である、
2.光学回路設計、耐干渉能力が強く、測定データの精度が高く、安定性が良い、
3.自動恒温制御システム、PID調節技術、消解過程の温度は一定、精度は高い、
4.計器は測定曲線を自動的に補正し、自動的にゼロに調整し、操作が便利である;
5.測定と分解システムはそれぞれ設計され、*立電源制御、操作過程は別々に行うことができ、互いに影響しない、
6.計器に直流電源を内蔵し、リチウム電池に電力を供給し、複数ロットの水サンプルの加熱分解と比色測定を実現することができる、
7.測定光源は冷光源を採用し、光源ランプの寿命は長く、ドリフトは小さく、寿命は長い、
8.計器にはリアルタイム時計が内蔵されており、各測定記録には測定タイムスタンプが付いており、統計と検索が便利である。
9.データ出力インタフェースを有し、コンピュータに接続し、測定データをコンピュータに転送することができる、
10.計器は感熱式プリンターを持参し、測定データと履歴データを直接印刷することができる、
11.スーツケース式のデザインで、軽量で、機械全体が美しく、持ち運びに便利です。
三、技術パラメータ
1.消解数量:≦4本、
2.温度表示誤差:≦±1℃;
3.温度場均一性:≦2℃;
4.消去時間表示誤差:≦±2%;
5.曲線パラメータ:100本の測定曲線パラメータを設定でき、
6.校正:1-7点校正モード、自動校正曲線値、
7.時計:内蔵リアルタイム時計、リアルタイム時計の月累積誤差は10秒未満、
8.記録記憶:30000回の測定結果を記憶でき、データの電源オフは失わない、
9.印刷:プリンタを持参し、測定結果を随時印刷する、
10.通信方式:RS232,測定結果をコンピュータにアップロードでき、ユーザーの統計分析に便利である、
11.表示:240*128大画面青色バックライトディスプレイ、中国語操作インタフェース、
12.周囲温度:(5〜40)℃、周囲湿度:相対湿度<85%(結露なし)、
13.動作電源:AC 220 V±10%/50 Hz、DC 16 Vリチウム電池、
14.外形寸法:400*300*200 mm、重量:8 kg。
COD指標
1.測定方法:高速触媒法(クロム法)、
2.測定範囲:5~10000 mg/L(>1000 mg/Lの場合の区分または希釈測定)、
3.二波長測定:5~150 mg/L低波長、100~1000 mg/L、高波長、
4.測定誤差:5~100 mg/L、絶対誤差≦±5 mg/L、100 mg/L〜10000 mg/L、相対誤差≦±5%
5.消解温度:165±1℃、消解時間:15分、自動タイミング
6.耐塩素干渉:[CL-]<1000 mg/L(>1000 mg/L希釈可能測定)。
アンモニア窒素指標
1.測定方法:ナルト比色法、
2.測定範囲:0~50 mg/L、
3.測定誤差:≤±5 %。
総リン指標
1.測定方法:モリブデン酸アンモニウム分光光度法、
2.測定範囲:0.01 mg/L〜24 mg/L、
3.測定誤差:≤±5 %;
4.消解温度:120±1℃、消解時間:30分、自動タイミング。
総窒素指標
1.測定方法:光度比色法、
2.測定範囲:≤100mg/L;
3.測定誤差:≤±5 %;
4.消解温度:125±1℃、消解時間:30分、自動タイミング。
硝酸塩窒素指標
1.測定方法:変色酸比色法、
2.測定範囲:0.01 mg/L〜100 mg/L(>20 mg/Lの場合は段階的に測定し、超量程は希釈測定可能)、
3.測定誤差:≤±5 %;
亜硝酸塩窒素指標(オプション)
1.測定方法:N−(1−ナフチル)−エチレンジアミン光度法、
2.測定範囲:0.01 mg/L〜12 mg/L(>0.3 mg/Lの場合は段階的に測定し、超量程は希釈測定可能)、
3.測定誤差:≤±5 %;
懸濁物指標(オプション)
1.測定方法:分光光度法、
2.測定範囲:0~500 mg/l(>500 mg/l希釈可能測定)、
3.測定誤差:≤±5 %;
濁度指標(オプション)
1.測定方法:分光光度法、
2.測定範囲:0〜400 NTU(>100 NTU時に区分的に測定し、超量程は希釈測定可能)、
3.測定誤差:≤±5 %;
色度指標(オプション)
1.測定方法:分光光度法、
2.測定範囲:0〜500度(>500度希釈可能測定)、
3.測定誤差:≤±5%;